home *** CD-ROM | disk | FTP | other *** search
/ Robotics & Artificial Int…3 (Professional Edition) / Robotics & Artificial Intelligence Tools 2003 (Professional Edition).iso / neural network tool and application / nsinstall.exe / data1.cab / Demos_Files / Unsupervised_Learning / TextBox.txt < prev   
Encoding:
Text File  |  2002-03-08  |  4.1 KB  |  30 lines

  1. #subtitleTextBox Introduction
  2. #mainTextBox Two of the most famous unsupervised learning paradigms are principal component analysis (PCA) and competitive learning. PCA linearly projects the input space onto an orthogonal output space of lower dimension while preserving maximum energy of the output. PCA is ideal for reducing the dimension of correlated inputs. Competitive learning is a clustering technique for performing vector quantization.
  3.  
  4. #subtitleTextBox Creating data clusters
  5. #mainTextBox The data is generated by the Function and Noise components acting together. The Function component produces a square wave of period 2, while the Noise component adds zero mean uniform noise with a 0.15 variance. We have attached a scatter plot probe to the output and set it to accumulate the data of 100 x-y pairs, defined here as one epoch. Run the input for one epoch and observe the effect of the noise on the square wave.
  6.  
  7. #subtitleTextBox Principal component analysis
  8. #mainTextBox This is the basic architecture for PCA. It consists of a Sangers synapse followed by an axon. Under Sanger's rule, the eigenvectors are ordered (by output energy), and the weights become normalized to one. Oja's rule is also available in NeuroSolutions. Run the simulation for 30 epochs. Observe how the weights find the principal axes, defined by the line that joins the clusters and its perpendicular.
  9.  
  10. #subtitleTextBox Annealing the learning rate
  11. #mainTextBox During the last simulation you may have noticed how fast the weights converged but that the major axis's weight track jumped around. This is because the learning rate was set too high. Ideally, the learning rate for PCA should be annealed. This allows rapid convergence of the high-energy components at the beginning of training and fine-tuning of the lower energy components toward the end of training. Therefore, we have added a scheduler to the step size. Repeat the experiment.
  12.  
  13. #subtitleTextBox Competitive learning
  14. #mainTextBox The strategy of standard competitive learning is to find the centers of a pre-defined number of clusters. The number of output PE's determines the number of clusters the system is trying to identify. We have replaced the Sangers synapse with a Standard competitive synapse. Run the experiment and watch what happens.
  15.  
  16. #subtitleTextBox Non-symmetric data clusters 
  17. #mainTextBox The standard competitive rule uses the dot product metric. A shortcoming of this rule is that the clusters must be symmetric about the origin. We have moved the clusters so that they are unsymmetric about the origin. Run the network and verify that the weights can't find the data clusters.
  18.  
  19. #subtitleTextBox Superfluous PEs
  20. #mainTextBox Another problem with standard competitive learning is that it is necessary to know the number of data clusters apriori. Enter a value for the number of output PEs greater than the number of clusters, and re-train the network. Observe how the extra PEs are superfluous.
  21.  
  22. #subtitleTextBox Conscience
  23. #mainTextBox One way around these problems is to use a conscience. A conscience keeps track of how frequently each neuron wins and inhibits neurons from winning if they have won too often in the recent past. We have replaced the Standard competitive synapse with a Conscience competitive synapse. Re-run the experiment and observe that conscience solves both the problem of non-symmetric data and superfluous PEs.
  24.  
  25. #subtitleTextBox Learning Vector Quantization (LVQ)
  26. #mainTextBox If class labels are available, then a supervised clustering procedure can be used. With LVQ, the winning PE is moved toward the data point if it is the correct class, and away from it otherwise. The class labels (0 or 1) are input at the "forced" access point of the Standard synapse. Run the experiment and observe that the same color PE always goes to the same cluster. Change the class definition, re-run the experiment, and observe that the same PE now goes to the other cluster.
  27.  
  28. #subtitleTextBox Summary
  29. #mainTextBox You have seen how NeuroSolutions implements two of the most popular unsupervised learning paradigms: principal component analysis and competitive learning.
  30.